Seleccione idioma

Spanish

Down Icon

Seleccione país

Netherlands

Down Icon

La iniciativa "Libre expresión" de Meta se traduce en muchas menos eliminaciones de contenido

La iniciativa "Libre expresión" de Meta se traduce en muchas menos eliminaciones de contenido
Meta dice que la flexibilización de sus políticas de cumplimiento a principios de este año condujo a menos eliminaciones erróneas en Facebook e Instagram y no expuso ampliamente a los usuarios a contenido más dañino.
Vista aérea de la sede de Meta en Menlo Park, California. Fotografía: Justin Sullivan/Getty Images

Meta anunció en enero que pondría fin a algunas medidas de moderación de contenido, flexibilizaría sus normas y priorizaría el apoyo a la libertad de expresión. Estos cambios resultaron en la eliminación de menos publicaciones en Facebook e Instagram, según reveló la compañía el jueves en su Informe trimestral sobre el Cumplimiento de las Normas Comunitarias. Meta afirmó que sus nuevas políticas habían ayudado a reducir a la mitad las eliminaciones de contenido erróneo en EE. UU. sin exponer a los usuarios a contenido más ofensivo que antes de los cambios.

El nuevo informe , mencionado en una actualización de una entrada de blog de enero por Joel Kaplan, director de asuntos globales de Meta, muestra que Meta eliminó casi un tercio menos de contenido en Facebook e Instagram a nivel mundial por infringir sus normas entre enero y marzo de este año que en el trimestre anterior, o aproximadamente 1.600 millones de elementos, en comparación con poco menos de 2.400 millones, según un análisis de WIRED. En los últimos trimestres, el total de eliminaciones trimestrales del gigante tecnológico había aumentado o se había mantenido estable.

En Instagram y Facebook, Meta reportó la eliminación de aproximadamente un 50 % menos de publicaciones por infringir sus normas de spam, casi un 36 % menos por poner en peligro a menores y casi un 29 % menos por conducta de odio. Las eliminaciones aumentaron solo en una categoría principal de las 11 que Meta incluye: contenido sobre suicidio y autolesión.

La cantidad de contenido que Meta elimina fluctúa regularmente de un trimestre a otro, y diversos factores podrían haber contribuido a la disminución de las eliminaciones. Sin embargo, la propia empresa reconoció que los cambios implementados para reducir los errores de cumplimiento fueron una de las razones de la importante caída.

En diversas áreas de políticas, observamos una disminución en la cantidad de contenido procesado y en el porcentaje de contenido sobre el que actuamos antes de que un usuario lo denunciara, escribió la empresa. Esto se debió en parte a los cambios que implementamos para asegurarnos de cometer menos errores. También observamos una disminución correspondiente en la cantidad de contenido apelado y finalmente restaurado.

Meta flexibilizó algunas de sus normas de contenido a principios de año, que el director ejecutivo Mark Zuckerberg describió como "simplemente desconectadas del discurso general". Los cambios permitieron a los usuarios de Instagram y Facebook emplear un lenguaje que los activistas de derechos humanos consideran odioso hacia los inmigrantes o las personas que se identifican como transgénero. Por ejemplo, Meta ahora permite "acusaciones de enfermedad mental o anormalidad basadas en el género o la orientación sexual".

Como parte de los cambios radicales, que se anunciaron justo cuando Donald Trump se disponía a comenzar su segundo mandato como presidente de Estados Unidos, Meta también dejó de depender tanto de herramientas automatizadas para identificar y eliminar publicaciones sospechosas de violaciones menos graves de sus reglas porque dijo que tenían altas tasas de error, lo que provocó frustración entre los usuarios.

Durante el primer trimestre de este año, los sistemas automatizados de Meta representaron el 97,4 % del contenido eliminado de Instagram bajo las políticas de incitación al odio de la compañía, una reducción de tan solo un punto porcentual con respecto a finales del año pasado. (Las denuncias de usuarios a Meta generaron el porcentaje restante). Sin embargo, las eliminaciones automáticas por acoso y hostigamiento en Facebook disminuyeron casi 12 puntos porcentuales. En algunas categorías, como la desnudez, los sistemas de Meta fueron ligeramente más proactivos en comparación con el trimestre anterior.

Los usuarios pueden apelar las eliminaciones de contenido, y Meta, en ocasiones, restaura las publicaciones que considera que se han eliminado indebidamente. En la actualización de la entrada del blog de Kaplan, Meta destacó la gran disminución de las eliminaciones erróneas. "Esta mejora se produce tras el compromiso que asumimos en enero de centrarnos en la aplicación proactiva de las infracciones de alta gravedad y en mejorar nuestra precisión mediante auditorías del sistema y señales adicionales", escribió la empresa.

Algunos empleados de Meta dijeron a WIRED en enero que les preocupaba que los cambios de política pudieran generar una peligrosa competencia en Facebook e Instagram, convirtiendo las plataformas en lugares cada vez más inhóspitos para que los usuarios conversen y pasen el tiempo.

Sin embargo, según su propio muestreo, Meta estima que los usuarios estuvieron expuestos a una o dos publicaciones de contenido de odio en promedio por cada 10 000 vistas en el primer trimestre, en comparación con las dos o tres de finales del año pasado. Además, las plataformas de Meta han seguido creciendo: cerca de 3430 millones de personas usaron al menos una de sus aplicaciones, como WhatsApp y Messenger, en marzo, frente a los 3350 millones de diciembre.

wired

wired

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow